一阶逻辑的传统自动定理普通普及依赖于速度优化的搜索和许多手工制的启发式,旨在在各种域中工作。文献中的机器学习方法取决于这些传统的传统普通普通的自我或达到了可比性的比较短暂。在本文中,我们提出了一般的增量学习算法,用于培训域特定竞争员的一阶逻辑,而不是基本的给定 - 子算法,但使用学习的子句评分函数。子句被用作图表,并呈现给具有光谱特征的变压器网络。为了解决稀疏性和初步缺乏培训数据以及缺乏自然课程,我们适应后敏感经验重播到定理证明,即使没有找到证据。我们展示了这种方式培训的普通培训可以在TPTP数据集中匹配和有时会在证明的数量和质量方面超越TPTP数据集。
translated by 谷歌翻译
我们检查了通过直播(OTA)聚合的联合学习(FL),移动用户(MUS)旨在借助聚合本地梯度的参数服务器(PS)在全球模型上达成共识。在OTA FL中,MUS在每个训练回合中使用本地数据训练他们的模型,并以未编码的方式使用相同的频带同时传输其梯度。根据超级梯度的接收信号,PS执行全局模型更新。尽管OTA FL的通信成本显着降低,但它容易受到不利的通道影响和噪声的影响。在接收器侧采用多个天线可以减少这些效果,但是对于远离PS的用户来说,路径损失仍然是一个限制因素。为了改善此问题,在本文中,我们提出了一种基于无线的层次FL方案,该方案使用中间服务器(ISS)在MUS更密集的区域形成簇。我们的计划利用OTA群集聚合与MUS与其相应的IS进行交流,而OTA全球聚合从ISS到PS。我们提出了针对所提出算法的收敛分析,并通过对使用ISS的衍生分析表达式和实验结果的数值评估显示,与单独使用较少的传输功率相比,利用ISS的结果比单独的OTA FL具有更快的收敛性和更好的性能。我们还使用不同数量的群集迭代以及不同数据集和数据分布来验证性能的结果。我们得出的结论是,群集聚集的最佳选择取决于MUS和集群之间的数据分布。
translated by 谷歌翻译
我们通过无监督学习的角度探索语义对应估计。我们使用标准化的评估协议彻底评估了最近提出的几种跨多个挑战数据集的无监督方法,在该协议中,我们会改变诸如骨干架构,预训练策略以及预训练和填充数据集等因素。为了更好地了解这些方法的故障模式,并为了提供更清晰的改进途径,我们提供了一个新的诊断框架以及一个新的性能指标,该指标更适合于语义匹配任务。最后,我们引入了一种新的无监督的对应方法,该方法利用了预训练的功能的强度,同时鼓励在训练过程中进行更好的比赛。与当前的最新方法相比,这会导致匹配性能明显更好。
translated by 谷歌翻译
通过无线通信信道联合学习(FL),具体地,考虑过空中(OTA)模型聚合框架。在OTA无线设置中,通过增加参数服务器(PS)的接收天线的数量来缓解不利的通道效果,该参数服务器(PS)执行模型聚合。然而,OTA FL的性能受到远离PS远离PS的移动用户(MU)的存在限制。在本文中,为了减轻这种限制,我们提出了分层的超空气联合学习(HotaF1),它利用中介服务器(是)在Mus附近形成集群。我们为建议的设置提供了收敛性分析,并通过理论和实验结果证明了在全局聚集之前每个群集的局部聚合导致更好的性能和更快的收敛性比OTA FL更快。
translated by 谷歌翻译